Перечислите гиперапараметры, которые можно настроить у классического многослойного перцептрона
▪️Количество скрытых слоёв Это напрямую влияет на сложность модели. Большее количество слоёв может улучшить способность модели к изучению сложных зависимостей, но это также увеличивает риск переобучения.
▪️Количество нейронов в каждом слое Чем больше нейронов, тем больше информации может обрабатываться, но это также увеличивает количество параметров, которые необходимо обучить.
▪️Функция активации Можно использовать, например, ReLU.
▪️Скорость обучения (learning rate) Один из ключевых гиперпараметров, определяющий, насколько быстро обновляются веса на каждом шаге обучения.
▪️Число эпох (epochs) Определяет, сколько раз модель пройдёт по всему набору данных во время обучения.
▪️Размер батча (batch size) Определяет, сколько примеров из обучающего набора данных используется для обновления весов за один раз.
▪️Оптимизатор Классические MLP могут использовать такие оптимизаторы, как Stochastic Gradient Descent (SGD) или более продвинутые, например, Adam или RMSprop.
Перечислите гиперапараметры, которые можно настроить у классического многослойного перцептрона
▪️Количество скрытых слоёв Это напрямую влияет на сложность модели. Большее количество слоёв может улучшить способность модели к изучению сложных зависимостей, но это также увеличивает риск переобучения.
▪️Количество нейронов в каждом слое Чем больше нейронов, тем больше информации может обрабатываться, но это также увеличивает количество параметров, которые необходимо обучить.
▪️Функция активации Можно использовать, например, ReLU.
▪️Скорость обучения (learning rate) Один из ключевых гиперпараметров, определяющий, насколько быстро обновляются веса на каждом шаге обучения.
▪️Число эпох (epochs) Определяет, сколько раз модель пройдёт по всему набору данных во время обучения.
▪️Размер батча (batch size) Определяет, сколько примеров из обучающего набора данных используется для обновления весов за один раз.
▪️Оптимизатор Классические MLP могут использовать такие оптимизаторы, как Stochastic Gradient Descent (SGD) или более продвинутые, например, Adam или RMSprop.
#глубокое_обучение
BY Библиотека собеса по Data Science | вопросы с собеседований
Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283
If riding a bucking bronco is your idea of fun, you’re going to love what the stock market has in store. Consider this past week’s ride a preview.The week’s action didn’t look like much, if you didn’t know better. The Dow Jones Industrial Average rose 213.12 points or 0.6%, while the S&P 500 advanced 0.5%, and the Nasdaq Composite ended little changed.
Look for Channels Online
You guessed it – the internet is your friend. A good place to start looking for Telegram channels is Reddit. This is one of the biggest sites on the internet, with millions of communities, including those from Telegram.Then, you can search one of the many dedicated websites for Telegram channel searching. One of them is telegram-group.com. This website has many categories and a really simple user interface. Another great site is telegram channels.me. It has even more channels than the previous one, and an even better user experience.These are just some of the many available websites. You can look them up online if you’re not satisfied with these two. All of these sites list only public channels. If you want to join a private channel, you’ll have to ask one of its members to invite you.
Библиотека собеса по Data Science | вопросы с собеседований from ms